home *** CD-ROM | disk | FTP | other *** search
/ Tech-ROM Library / Tech-Rom Library - The Technical Library on CD-ROM 1993.iso / sw / apian / menu / vendors.dpw (.txt) < prev   
Encoding:
Decision Pad Worksheet  |  1990-02-24  |  6.6 KB  |  78 lines

  1. DPW REV 2.01X~Selecting a preferred or sole-source vendor
  2. EXCELLENCE
  3. Excell
  4. V-Good
  5. Unacc
  6. 10-to-0 RATING
  7. YES-NO
  8. DOLLARS COST
  9. DOLLARS PROFIT
  10. MAX-to-0 NUMBER
  11. 0-to-MAX NUMBER
  12. RANKED
  13. COMMENT
  14. % SALES
  15. 10-15
  16. 15-20
  17. 20-30
  18. Under 1
  19. 40-40
  20. Over 40
  21. HISTORY
  22. VS STDS
  23. Way above
  24. Above
  25. Meets
  26. Below
  27. Unacc
  28. VENDOR RATING MODEL
  29. A model for rating vendors, establishing a ranking order for engineering and manufacturing decisions about specific purchases.
  30. The specifics are losely based upon an article in PURCHASING MAGAZINE, July 10 1986 about a Supplier Rating Chart used by Chrysler Electronics.  But the basic approach is part of current purchasing and quality control thinking about "vendor partnerships" discussed in many places.
  31.      NA T&D
  32. NA Tool and Die remains one of our top performers in all categories, with excellent consistency.
  33. Be nice if their pricing were more agressive, but on balance their reliability is worth it in savings to manufacturing and field warranty.  Fire drills around here cost a lot!
  34.        Acme
  35.     FM Tool
  36.         J&K
  37.     Hi-Tech
  38.     Western
  39. They have been asking why we no longer give them as much business.  Meeting scheduled next week to show them how their performance stacks up against the criterion we are using today for vendor performance.
  40. Will use PRUNE to replace all the names with Aliases, then put their name back in.  That way we can prepare a presentation to really make the point without giving out confidential information about their competition.
  41. MUST HAVE
  42. Defect Rates
  43. This would be a lot more satisfying if it were based on numbers.  A class of vendors could be measured against some common standard and a numeric or reliability "bin" scale set up.
  44. More of their attention goes into pushing the atate of the art than into consistent quality.
  45. SQA Conformance
  46. This would likely be data from a regular audit of the Statistical Quality Control program of the vendor:  how has he done against the last plan, how satisfactory are his goals.
  47. Sample Performance
  48. Responsiveness
  49.             QUALITY:
  50. On-time, On-quantity
  51. Base your entries on historical performance:
  52. Way Above = 98% on set day.
  53. Above = 98% within 1 day
  54. Meets = ...
  55. Below = ...
  56. Unacc = ...
  57. If you believe that next year's performance will change (or for new vendors), enter your best judgement and attach a note to the data item with your reasoning.
  58. Quantity Flexibility
  59. Engineering Schedule
  60.            DELIVERY:
  61. Competitive
  62. Cost Improvements
  63. Payment Terms
  64.               PRICE:
  65. State-of-the-art
  66. Outstanding -- especially for the processes we wish to move to.
  67. Shared R&D, CAD
  68. Includes assessment of technology match.  CAD fit includes all abilities to move information electronically between the R&D and manufacturing teams.
  69. Great technology, but guard it jealously!
  70. Teamwork
  71.          TECHNOLOGY:
  72. Years bought from
  73. This is partly a measure of risk and partly a bias to reward their loyalty as a vendor.
  74. Our % of their sales
  75. There is a right level of business to be doing with a vendor.  Too much and we have poor flexibility on quantities or design changes.  Too little and we get less attention.
  76. Use CRITERION, EDIT TYPE to look at the way this one is scored.
  77. SCORE
  78.